۱ اردیبهشت ۱۴۰۲ - ۱۹:۵۲
با شمشیر دو لبه هوش مصنوعی چه باید کرد؟

رشد سریع هوش مصنوعی ترس و هیجان توام را نسبت به این پدیده ایجاد کرده است اما چطور می‌توان به شکل منطقی نگران این تحول تکنولوژیک بود؟ هفته نامه اکونومیست گزارش اصلی این هفته خود را به این پرسش اختصاص داده است.

فردای اقتصاد- هوش مصنوعی به سرعت در حال توسعه است و بیشترین چیزی که از توسعه آن می‌شنویم جایگزین شدن آن با مشاغل مختلف است. آیا باید مغزهای غیر انسانی را توسعه داد در حالی که ممکن است در آینده جایگزین مغزهای انسانی شوند؟ آیا باید ریسک از دست رفتن بشریت را در نظر گرفت؟ آیا از ترس هوش مصنوعی و جایگزین شدن شغل‌ها باید به طور کل از حضور هوش مصنوعی در  انجام کارها پرهیز کرد؟ این پرسش‌ها ماه گذشته توسط نامه سرگشاده یک نهاد غیر انتفاعی به نام انستیتو آینده زندگی مطرح شد که در آن خواستار توقف شش ماهه در زمینه توسعه انواع پیشرفته هوش مصنوعی شده بودند. در میان امضاکنندگان این نامه نام‌های مشهوری از حوزه تکنولوژی نیز به چشم می‌خورد از جمله ایلان ماسک.با شمشیر دو لبه هوش مصنوعی چه باید کرد؟

این نامه نشانگر اوج‌گیری نگرانی‌های عمیق از پتانسیل‌های خطرآفرین رشد هوش مصنوعی است.به طور مشخص توسعه مدل‌های زبانی بزرگ (LLM) در حوزه هوش مصنوعی که به ویژه در ربات چت جی پی تی (Chat GPT) مورد استفاده قرار گرفته باعث شگفتی بسیاری شده و حتی سازندگان آن در استارتاپ OpenAI را هم متحیر کرده است. این توانایی‌های جدید شامل هرچیزی از حل معماهای منطقی تا نوشتن کدهای کامپیوتری، شناسایی نام فیلم از روی خلاصه داستان تا حتی تولید ایموجی می‌شود.

این مدل‌های جدید می‌توانند ارتباط انسان با کامپیوتر، دانش و حتی رابطه انسان با خودش را متحول کند. استدلال طرفداران هوش مصنوعی این است که به کمک این تکنولوژی می‌توان داروهای جدید را توسعه داد، به طراحی مواد جدیدی اقدام کرد، با تغییرات آب و هوایی جدید مقابله کرد و پیچیدگی‌های انرژی همجوشی هسته‌ای را از بین برد. از نظر مخالفان هوش مصنوعی رشد سریع این تکنولوژی، خطرات کشنده سناریوی پیشی گرفتن ماشین از مخترع خود را گوشزد می‌کند.

این ترکیب جوشان هیجان و ترس ( از هوش مصنوعی ) سنجش فرصت‌ها و خطرات این عرصه را دشوار می‌کند اما می‌توان از سایر صنایع و حتی از تغییرات فناوری در گذشته درس آموخت. چه چیزی تغییر کرده است که هوش مصنوعی را توانمندتر از تکنولوژی‌های دیگر کرده است؟ چقدر باید ترسید ودولت‌ها چه باید بکنند؟

از تشخیص تصاویر تا چت جی پی تی 

موج اول سیستم‌های هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، روی داده‌های آموزشی با برچسب‌گذاری دقیق تکیه داشت. پس از قرار گرفتن در معرض تعداد کافی نمونه برچسب‌گذاری شده، این سیستم‌ها قادر به کارهایی مانند آموختن تشخیص تصاویر یا تبدیل گفتار به متن بودند.

سیستم‌های امروزی نیازی به برچسب‌گذاری اولیه ندارند و در نتیجه می‌توان با استفاده از مجموعه داده‌های بسیار بزرگ‌تری که از منابع آنلاین گرفته شده‌اند، آنها را آموزش داد. مدل‌های زبانی بزرگ (LLM) در واقع می تواند توسط کل محتوای اینترنت  آموزش داده شود که این موضوع می‌تواند قابلیت‌های خوب و بد آن را توضیح دهد.

زمانی که Chatgpt در نوامبر سال گذشته میلادی منتشر شد، این قابلیت ها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته از آن استفاده کردند و این تعداد در طی دوماه به ۱۰۰ میلیون نفر رسید. به سرعت چت جی پی تی مورد استفاده عموم قرار گرفت و از آن برای تولید انشاهای مدرسه و حتی سخنرانی‌های عروسی استفاده شد. محبوبیت چت جی پی تی و اقدام مایکروسافت در گنجاندن آن در موتور جست و جوی بینگ رقبا را هم به فکر انتشار محصولات مشابهی کرد.

در مورد چت جی پی تی بخوانید: پشت پرده ChatGPT چه می‌گذرد؟

برخی از این موارد نتایج عجیبی به همراه داشت. از جمله آنکه چت موتور جست و جوی بینگ به یک روزنامه نگار پیشنهاد کرد که همسرش را ترک کند یا در موردی دیگر یک استاد حقوق این چت را به ایراد افترا متهم کرد.

پاسخ‌هایی که این سیستم ارایه می‌کند عموما دارای حقیقت هستند اما اغلب با اشتباهات واقعی یا جعل آشکار هم همراهند. با این حال مایکروسافت گوگل و سایر شرکتهای فناوری شروع به استفاده از سیستم  LLM در محصولات خود کرده‌اند تا به کاربران در ایجاد اسناد و انجام کارهای مختلف کمک کنند.

با شمشیر دو لبه هوش مصنوعی چه باید کرد؟

آیا می‌توان هوش مصنوعی را کنترل کرد؟

شتاب اخیر در قدرت و دید سیستم‌های هوش مصنوعی و افزایش آگاهی از توانایی‌ها و نقص‌های آنها، این نگرانی را ایجاد کرده است که این فناوری اکنون به سرعت در حال پیشرفت است و نمی‌توان آن را به طور ایمن کنترل کرد. از این رو فراخوانی برای توقف موقت توسعه آن منتشر شده که از به خطر افتادن کل بشریت ابراز نگرانی می‌کند.

ترس از اینکه ماشین‌ها مشاغل انسان را بدزدند  قرن‌ها سابقه دارد.تا پیش از این ماشین‌ها عمدتا جایگزین نیروهای کار غیر ماهر شده بودند با این حال مدل‌های جدید هوش مصنوعی حتی قادر به انجام کارهای پیچیده‌تر مانند نوشتن کدهای کامپیوتری هم هستند.

در مورد درجه خطر هوش مصنوعی اختلاف نظرهای زیادی وجود دارد. در یک نظرسنجی از محققان هوش مصنوعی که در سال 2022 انجام شد، 48٪ معتقدند که حداقل 10٪ احتمال دارد که تاثیر هوش مصنوعی  منجر به اتفاقات "بسیار بد مثلاً انقراض انسان رخ دهد. اما ۲۵ درصد خطر ان را صفر تلقی می‌کنند.

کابوس این است که یک سیستم هوش مصنوعی پیشرفته با ساختن سم یا ویروس یا ترغیب انسان به انجام اقدامات تروریستی باعث آسیب در مقیاس گستره‌تر شود. در واقع محققان نگرانند که اهداف آینده هوش مصنوعی ممکن است با اهداف خالقان انسانی آن همسو نباشد.

چنین سناریوهایی را نباید نادیده گرفت. اما همه اینها شامل مقدار زیادی حدس و گمان و جهشی از فناوریهای امروزی است. و بسیاری تصور می کنند که هوش مصنوعی در آینده دسترسی نامحدودی به انرژی، پول و قدرت محاسباتی خواهد داشت. برخی دیگر هم مانند ایلان ماسک که خود در حال راه‌اندازی شرکت هوش مصنوعی است ممکن است به دنبال توقف رقبا برای رسیدن کسب و کارشان به درجه بلوغ آنها باشد.

به نظر می‌رسد مقررات برای هوش مصنوعی لازم است اما دلایل نیاز به این مقررات پیش پا افتاده‌تر تر از نجات بشریت است. سیستم های هوش مصنوعی جدید نگرانی‌های واقعی را درباره تعصب نژادی، حریم خصوصی و حقوق مالکیت معنوی ایجاد می‌کند. با پیشرفت فناوری مشکلات دیگری نیز ممکن است آشکار شوند.

رویکرد دولت‌ها در برابر هوش مصنوعی

تاکنون دولت ها سه رویکرد متفاوت را در زمینه هوش مصنوعی در پیش گرفته اند. در یک انتهای این طیف بریتانیا قرار دارد که رویکرد "لمس سبک" را بدون ایجاد قوانین یا نهادهای نظارتی جدید پیشنهاد کرده است، اما مقررات موجود را برای سیستم‌های هوش مصنوعی اعمال می‌کند. هدف این کشور افزایش سرمایه گذاری و تبدیل بریتانیا به یک "ابرقدرت هوش مصنوعی" است. آمریکا رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون به دنبال نظر افکار عمومی است و ممکن است در آینده این به کتابچه‌ای از قوانین در زمینه هوش مصنوعی تبدیل شود.

اتحادیه اروپا موضع سخت‌تری را در پیش گرفته است. قانون پیشنهادی این اتحادیه، استفاده‌های مختلف از هوش مصنوعی را بر اساس درجه خطر طبقه‌بندی می‌کند، برخی از کاربردهای هوش مصنوعی در این اتحادیه کاملا ممنوع هستند و شرکتهایی که قوانین را زیر پا بگذارند جریمه خواهند شد. از نظر برخی منتقدان این قوانین بسیار سخت‌گیرانه‌اند.

اما برخی دیگر می گویند رویکرد سخت گیرانه تری لازم است. دولت‌ها باید مانند داروها باید اقسام هوش مصنوعی را به صورت دقیق مورد آزمایش قرار دهند. چین برخی از این کارها را انجام می‌دهد و شرکت‌ها را ملزم کرده  تا محصولات مصنوعی را ثبت کنند و قبل از عرضه، بازبینی امنیتی روی آنها انجام می‌گیرد.

در همین زمینه بخوانید: روایت اکونومیست از جنگ ChatGPT و گوگل

چه باید کرد؟

بعید است که رویکرد لمسی سبک ( آنچنانکه بریتانیا به دنبال آن است) کافی باشد. اگر هوش مصنوعی به اندازه ماشین‌ها، هواپیماها و داروها یک فناوری مهم باشد - و دلیل خوبی برای این باور وجود دارد - پس مانند آنها به قوانین جدیدی نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیک‌ترین مدل به علامت است، اگرچه سیستم طبقه‌بندی آن بیش از حد پیچیده است.

اما میتوان در صورت نیاز مقررات سختگیرانه‌تری را در طول زمان فراهم کرد. ممکن است یک رگولاتوری اختصاصی برای هوش مصنوعی مناسب به نظر برسد. همچنین ممکن است در صورتی که شواهد قابل قبولی مبنی بر وجود خطر جدی دیده شود معاهدات بین دولتی مشابه پیمان‌هایی که بر تسلیحات هسته‌ای مورد توافق قرار گرفته هم مطرح شود. برای نظارت بر این خطر دولت‌ها می‌توانند بدنه‌ای را با الگوبرداری از CERN ( سازمان اروپایی پژوهش هسته‌ای )‌تشکیل دهند.  یک آزمایشگاه بزرگ که می‌تواند ایمنی و اخلاقیات در حوزه هوش مصنوعی را مورد مطالعه قرار دهد. حوزه‌هایی که شرکتها انگیزه‌ای برای سرمایه‌گذاری در آن ندارند.

 برای نظارت بر این خطر، دولت‌ها می‌توانند بدنه‌ای را با الگوبرداری از cern تشکیل دهند، یک آزمایشگاه فیزیک ذرات، که همچنین می‌تواند ایمنی و اخلاقیات را مورد مطالعه قرار دهد - حوزه‌هایی که شرکت‌ها انگیزه‌ای برای سرمایه‌گذاری به اندازه جامعه ندارند.

این فناوری قدرتمند خطرات جدیدی را ایجاد می کند، اما فرصت های خارق العاده ای را نیز ارائه می دهد. متعادل کردن این دو به معنای گام برداشتن با دقت است. یک رویکرد سنجیده امروزی می‌تواند پایه‌هایی را فراهم کرد که پایه‌گذار قوانین بیشتری در آینده باشد. اکنون زمان ساخت این پایه‌هاست.

تبادل نظر

شما در حال پاسخ به نظر «» هستید.
captcha